23 - Diskretisierungs- und Optimierungsmethoden [ID:3115]
50 von 724 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Wir hatten sozusagen Ausgehen davon, dass wir uns schon mal das Gradientenverfahren für

quadratische Probleme angeschaut hatten, versucht, das zu einem möglichst allgemeinen Abstiegsverfahren

zu verallgemeinern. Zu verallgemeinern bedeutet zum einen die Richtung, in der gesucht wird und die Art,

wie dann entlang dieser Richtung die Itterierte verbessert wird. Das Optimale ist natürlich,

dass man eindimensional minimiert, so man das kann. Im quadratischen Fall kann man das exakt machen,

im Allgemeinen nur unter erheblichen Zusatzbedingungen, zum Beispiel der

Unimodalität, da gibt es ein effizientes Verfahren, was wir gesehen haben. Im Allgemeinen

wird man sich darauf beschränken, wirklich abzusteigen. Da haben wir verschiedene

schrittweiten Strategien, jetzt das letzte Mal gesehen. Und die allgemeine Bedingung auf der

anderen Seite an die Richtung war, dass es sich um eine Abstiegsrichtung handelt und eine

Abstiegsrichtung liegt natürlich insbesondere dann vor, wenn wir in die Richtung des negativen

Gradienten gehen. Das heißt also, dieses Gradientenverfahren oder dieses Verfahren des

steidsten Abstiegs, aber jetzt im allgemeinen Fall unter der Voraussetzung, dass das Funktional nur

einmal stetig differenzierbar ist, das wollen wir uns jetzt noch mal anschauen und sozusagen

die Sätze spezifizieren, die wir jetzt schon gesehen haben. Die erste Begrifflichkeit

für allgemeiner das, was wir dann im Allgemeinen beim differenzierbaren Fall wieder als negativen

Gradienten erkennen werden, aber wir machen das jetzt gleich ein bisschen allgemeiner und

eröffnen damit den Weg zu einer recht interessanten Variante, die dann unter dem Namen Variable

Metrikenverfahren heute noch eine Rolle spielen wird. Also die Situation sei die folgende,

wir betrachten eine Norm auf dem Rn, wir haben unser Funktional, wie auch immer das heißt,

klein F oder groß F. Für die Definition des Begriffes brauchen wir nur die Richtungsdifferenzierbarkeit.

Es wird fast schon ein bisschen spitzfindig, aber in alle Richtungen, da ist zwar noch

ein minimaler Unterschied zur Differenzierbarkeit, aber so schrecklich viel nun auch nicht.

So, und dann nennen wir eine Richtung, die Richtung des steilsten Abstiegs bezüglich

der Norm, das ist das, was jetzt speziell dazu kommt, was den Begriff etwas allgemeiner

macht, das mit der Richtungsdifferenzierbarkeit, das ist nur Verzierung, da hätten wir auch

gleich Differenzierbarkeit voraussetzen können. Also wir nennen eine Richtung D, also ein

D und gleich Null, D natürlich aus dem Rn, eine Richtung des steilsten Abstiegs bezüglich

der Norm, also in diesem Punkt x, wo wir sind, bezüglich der vorgelegten Norm, das muss nur

eine spezielle Norm sein, damit wir dann wirklich aber was ausrechnen können, werden wir sehen,

dass wir von einem Skalarprodukt dann erzeugte Normen brauchen, aber da gibt es ja auch mehr

als nur die sozusagen übliche euklidische Norm, die einem vielleicht immer sofort einfällt.

Was soll gelten? Wir wollen haben, dass die Richtungsableitung an der Stelle x in die auf

1 normierte Länge D, da kommt also jetzt an der Stelle die Norm rein, da unterscheiden

sich die Begriffe bezüglich der Norm. Der auf 1 normierten Länge D, das soll wirklich

die minimale, das sind ja alles, wenn wir Abstiegsrichtungen haben, sind das negative

Zahlen und das soll jetzt das Minimum sein, soll also in dem Sinn den größten Abstieg

darstellen, bezüglich aller Richtungen D mit Länge 1. Das ist klar, kleiner Null, damit

wir überhaupt einen Abstieg haben. Okay. Wie ist das jetzt, ist in diesem Sinne das, was

wir allgemein eben als die Richtung des steilsten Abstiegs kennengelernt haben, nämlich der

negative Gradient, ist das eine Richtung steilsten Abstiegs und wenn ja, bezüglich welcher Norm?

Das ist so und zwar bezüglich der eben euklidischen Norm, der vom Standard Skalarprodukt erzeugten

Norm. Das sagt der nächste Satz aus, wenn f differenzierbar ist in x und wir sind noch

nicht, wir sind nicht in einem stationären Punkt, das heißt der Gradient von f von x

ist ungleich Null, dann ist die durch den negativen Gradienten gegebene Richtung, die

Richtung des steilsten Abstiegs in x bezüglich der euklidischen Norm. Das ist die Aussage.

Oder etwas genauer, wir haben ja die Richtung hier, selbst ist er nicht normiert, jedes

positive Vielfache einer Richtung ist natürlich genauso gut wie die Richtung selbst, das

ist die Aussage lautet genau. Dann ist d ungleich Null natürlich Richtung des steilsten Abstiegs

Zugänglich über

Offener Zugang

Dauer

01:28:39 Min

Aufnahmedatum

2013-07-08

Hochgeladen am

2013-08-08 01:01:15

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen